Elon Musk setzt auf unkontrollierte KI-Funktion bei X – mit Folgen
Elon Musks KI-Unternehmen xAI hat diese Woche neue Funktionen für seinen ChatGPT-Herausforderer Grok vorgestellt. Und die haben es in sich.
Wie der KI-Chatbot selbst ist der integrierte KI-Bildgenerator durch sehr wenige Sicherheitsvorkehrungen vor missbräuchlicher Nutzung geschützt.
Verfügbar ist Grok für zahlungswillige User von Musks eigener Social-Media-Plattform X (Twitter).
Welche Technologie steckt dahinter?
Der neue KI-Chatbot von xAI basiert auf zwei leistungsfähigen Sprachmodellen namens «Grok-2» und «Grok-2 mini», die gemäss der offiziellen Ankündigung vom Dienstag als Beta-Versionen lanciert wurden.
Diese Modelle sind mit dem kürzlich angekündigten KI-Bildgenerator Flux verknüpft, einem vom Start-up Black Forest Labs aus Deutschland stammenden Tool.
Laut User-Befragungen übertrifft Flux die KI-Bildgeneratoren der Konkurrenz, konkret von Midjourney und OpenAI (DALL-E), in Bezug auf die Qualität.
Es bestehe kein Zweifel daran, dass für das Training des Modells urheberrechtlich geschütztes Bildmaterial verwendet wurde, hält Tech Crunch fest.
Black Forest Labs ist laut Tech Crunch ein KI-Bild- und Video-Startup, das am 1. August an den Start ging. Die Verantwortlichen schienen die umstrittene Vision von Techmilliardär Musk zu teilen, der mit Grok einen «Anti-Woke-Chatbot» unter die Leute bringen wolle.
Wie gefährlich ist Grok?
Der amerikanische KI-Experte Ethan Mollick weist auf Risiken des ungebändigten KI-Bildgenerators hin:
Der US-Analyst Christian Montessori hat den neuen KI-Chatbot bereits ausprobiert und warnt vor möglichen negativen Auswirkungen für die Gesellschaft:
- Grok habe ihm Anweisungen gegeben, wie man eine Düngerbombe mit genauen Messungen des Inhalts herstelle und wie man einen Zünder fabriziere.
- Der KI-Chatbot habe ihm ermöglicht, (fotorealistische) Bilder von Elon Musk zu generieren, der Massenerschiessungen durchführe.
- Die KI habe ihm zudem klare Anweisungen gegeben, wie man eine Massenerschiessung und ein politisches Attentat durchführe – einschliesslich hilfreicher Tipps, wie man ein Sturmgewehr vom Typ AR15 mit 11,5-Zoll-Lauf an einem gesicherten Ort verstecke.
Auch der Schweizer Sozialwissenschafter Marko Kovic hat sich das leistungsfähige Tool angeschaut. In einem lesenswerten Thread (siehe Quellen) zeigt er falsche Versprechungen auf. Sein knallhartes Urteil:
Der in rechtsextreme Gefilde abgedriftete Musk scheine darauf aus zu sein, dass entsprechende Fake News und Bildfälschungen seine Social-Media-Plattform durchdringen, konstatiert Tech Crunch. Den Nutzerinnen und Nutzern werde nun gestattet, auf X KI-Bilder zu verbreiten, die offenbar keine Wasserzeichen aufweisen. Solche von blossem Auge nicht erkennbaren digitalen Markierungen sollen es Plattformbetreibern ermöglichen, problematische Inhalte zu kennzeichnen und zu filtern.
Wie geht es weiter?
Es ist zu bezweifeln, dass die Behörden in den USA und in Europa der mehr oder weniger unkontrollierten KI-Offensive von Elon Musk nur zusehen.
Der «allgemeine Mangel an Sicherheitsvorkehrungen» rund um Grok und den integrierten KI-Bildgenerator könnte den Anbietern ziemlich Probleme bereiten, prognostiziert Tech Crunch und erinnert an bisherige Kontroversen rund um die Social-Media-Plattform X.
- So hätten etwa die KI-generierten Deepfake-Bilder zu Taylor Swift für heftige öffentliche Kritik gesorgt.
- Erst letzte Woche hätten fünf Vertreter von US-Bundesstaaten die Plattformbetreiber aufgefordert, auf X keine Falschinformationen über die US-Präsidentschaftskandidatin Kamala Harris zu verbreiten.
- Am 21. Juli, wenige Stunden nachdem Joe Biden angekündigt hatte, dass er seine Präsidentschafts-Kandidatur zurückziehe, begann Grok mit der Verbreitung von Falschinformationen über Harris.
- Musk selbst verbreitet immer wieder Inhalte, die gegen die Nutzungsbedingungen von X verstossen.
Die Europäische Kommission ermittelt bereits gegen X wegen möglicher Verstösse gegen den Digital Safety Act (DSA). Dieses Gesetz regelt, wie die grössten Online-Plattformen User-Inhalte moderieren. Anfang Jahr hat die EU-Kommission von X und weiteren Techkonzernen zudem Auskunft über die Eindämmung von KI-Risiken verlangt. Betreibern, die nicht kooperieren, drohen Geldstrafen in mehrstelliger Milliardenhöhe.
Black Forest Labs erklärt derweil, man wolle die eigene Technologie einem breiten Publikum zugänglich machen, mit frei verfügbaren KI-Bildgeneratoren (Open-Source) auf den Software-Entwicklungsplattformen Hugging Face und GitHub. Und das Start-up plant offenbar auch, bald ein Text-zu-Video-Modell zu lancieren.
Tests deuten darauf hin, dass sich Grok von einem Nischen-Chatbot zu einem legitimen Konkurrenten im KI-Rennen mit OpenAI, Google und Co. mausert. Hierbei dürften auch die Echtzeit-Trainingsdaten von X helfen, die trotz User-Protesten verwendet werden.
Bleibt die Frage, ob Musk mit seinen eigenen Waffen geschlagen, respektive zum Umdenken gebracht werden kann. Die US-Juristin und Transgender-Aktivistin Alejandra Caraballo liefert bei X einen Denkanstoss, indem sie den Techmilliardär mit Fake-Bildern verulkt.
Quellen
- arstechnica.com: Musk’s new Grok upgrade allows X users to create largely uncensored AI images
- theverge.com: X’s new AI image generator will make anything from Taylor Swift in lingerie to Kamala Harris with a gun (14. August)
- techcrunch.com: Meet Black Forest Labs, the startup powering Elon Musk’s unhinged AI image generator
- x.com: Thread von Marko Kovic zu Grok
- x.ai: Grok-2 Beta Release (13. August)
